это не только телеграм-каналы, это весь мир включая нобелевский комитет свихнулся на ИИ.
круто, потому что back propagation — великая идея. но при чем тут физика ответа у меня нет
круто, потому что back propagation — великая идея. но при чем тут физика ответа у меня нет
Forwarded from эйай ньюз
Нобелевка за нейронки
Нобелевскую премию по физике выиграли Джеффри Хинтон и Джон Хопфилд. Премию присудили за "Фундаментальные открытия и изобретения, которые способствуют машинному обучению с искусственными нейронными сетями". При чём здесь физика - сложно понять. Похоже, комитет просто пытался хоть куда-то приткнуть нейронки, а физика тут ближе всего. Хотя, по-моему, тут больше бы подошла даже медицина - там хотя бы AlphaFold совершил прорыв в чём-то, а с открытиями в области физики из-за нейронок как-то негусто.
Возможно, причина в том, что Хопфилд всё-таки по образованию физик. Хотя его основной вклад в науку - изобретение сетей Хопфилда, рекуррентных сетей, которые во многом положили начало возрождению нейронных сетей в 80-х и 90-х.
Хинтон изобрёл метод обратного распространения ошибки для тренировки нейронок, который позволил тренировать многослойные сети. А студенты Хинтона - Илья Суцкевер и Алекс Крижевский, создали AlexNet. Именно она начала всю эту гонку нейронок, показав, что их можно масштабировать через тренировку на GPU.
В общем, хайп по нейронкам теперь проник и в Нобелевский комитет.
@ai_newz
Нобелевскую премию по физике выиграли Джеффри Хинтон и Джон Хопфилд. Премию присудили за "Фундаментальные открытия и изобретения, которые способствуют машинному обучению с искусственными нейронными сетями". При чём здесь физика - сложно понять. Похоже, комитет просто пытался хоть куда-то приткнуть нейронки, а физика тут ближе всего. Хотя, по-моему, тут больше бы подошла даже медицина - там хотя бы AlphaFold совершил прорыв в чём-то, а с открытиями в области физики из-за нейронок как-то негусто.
Возможно, причина в том, что Хопфилд всё-таки по образованию физик. Хотя его основной вклад в науку - изобретение сетей Хопфилда, рекуррентных сетей, которые во многом положили начало возрождению нейронных сетей в 80-х и 90-х.
Хинтон изобрёл метод обратного распространения ошибки для тренировки нейронок, который позволил тренировать многослойные сети. А студенты Хинтона - Илья Суцкевер и Алекс Крижевский, создали AlexNet. Именно она начала всю эту гонку нейронок, показав, что их можно масштабировать через тренировку на GPU.
В общем, хайп по нейронкам теперь проник и в Нобелевский комитет.
@ai_newz
нобелевку по химии выдали разработчикам alpha fold, то есть тоже за ИИ
при этом сама Alpha Fold - это лучший ответ на вопрос «может ли ИИ делать науку». Все ученые мира вместе взятые к 2020 расшифровали структуру примерно 170 тысяч из примерно 200 миллионов известных белков. это очень важная задача, потому что у белков помимо химической структуры (последовательности аминокислот), крайне важна еще и пространственная структура (вторичная, третичная и тд), которая определяет, в какой клеточный рецептор попадет определенный его участок, а в какой не попадет и потому принципиально важно, например, для дизайна лекарств
раньше восстановление этой пространственной 3д-структуры требовало заморозки множества случайно повернутыми к наблюдателю одной из своих проекций белков в жидком азоте. анализу этих проекция под электронным микроскопом. сбора огромного количества измеренных проекций вместе и далее вычислительный сбор из них всех итоговой 3д-структуры.
нейросетка гугла Alpha Fold обучилась на открытых ранее 170 тысячах белков всех известных биологических видов, учла известные физические и химические ограничения на их структуру (условно говоря - конечную гибкость) и смоделировала все оставшиеся 200 миллионов. а авторы собрали это все в базу данных и выложили в открытый доступ, за что им низкий поклон
конечно, не все данные окажутся верными при должной проверке, но они уже изменили то как выглядит процесс исследований в молекулярной биологии — полагаю, что мало кто сейчас игнорирует существование этой сокровищницы с данными. например, эти данные помогли предсказать структуру белков вируса COVID-19 и быстрее сделать вакцину против него.
премию по литературе теперь ждем для chatGPT.
в интересное время живем, товарищи. хотя физиков с химиками, конечно, жалко — обе премии ушли по факту в computer science. но их прогресс тоже не бережет, то ли еще будет
#AI #biology
при этом сама Alpha Fold - это лучший ответ на вопрос «может ли ИИ делать науку». Все ученые мира вместе взятые к 2020 расшифровали структуру примерно 170 тысяч из примерно 200 миллионов известных белков. это очень важная задача, потому что у белков помимо химической структуры (последовательности аминокислот), крайне важна еще и пространственная структура (вторичная, третичная и тд), которая определяет, в какой клеточный рецептор попадет определенный его участок, а в какой не попадет и потому принципиально важно, например, для дизайна лекарств
раньше восстановление этой пространственной 3д-структуры требовало заморозки множества случайно повернутыми к наблюдателю одной из своих проекций белков в жидком азоте. анализу этих проекция под электронным микроскопом. сбора огромного количества измеренных проекций вместе и далее вычислительный сбор из них всех итоговой 3д-структуры.
нейросетка гугла Alpha Fold обучилась на открытых ранее 170 тысячах белков всех известных биологических видов, учла известные физические и химические ограничения на их структуру (условно говоря - конечную гибкость) и смоделировала все оставшиеся 200 миллионов. а авторы собрали это все в базу данных и выложили в открытый доступ, за что им низкий поклон
конечно, не все данные окажутся верными при должной проверке, но они уже изменили то как выглядит процесс исследований в молекулярной биологии — полагаю, что мало кто сейчас игнорирует существование этой сокровищницы с данными. например, эти данные помогли предсказать структуру белков вируса COVID-19 и быстрее сделать вакцину против него.
премию по литературе теперь ждем для chatGPT.
в интересное время живем, товарищи. хотя физиков с химиками, конечно, жалко — обе премии ушли по факту в computer science. но их прогресс тоже не бережет, то ли еще будет
#AI #biology
потрясающий текст про закат компании ABBYY как наименьшее из последствий краха всей компьютерной лингвистики под натиском статистических моделей языка. Пластмассовый мир chatGPT победил все попытки построить детерминированные онтологии, а способ решения любой проблемы "завалить вычислительными мощностями", оказался более надежным и масштабируемым, чем любая попытка разобраться что же происходит внутри системы (и язык здесь только один из примеров)
по ссылке обзор развития компьютерной лингвистики от ранних моделей до трансформеров, которые появились как способ улучшить качество гугл-переводчика, расцвет ABBYY как одной из самых успешных российских ИТ-компаний, почти академическая культура физтехов внутри, «горький урок» больших данных и сгоревшие сотни миллионов долларов на амбициозную попытку построить дерево онтологий всех языков сразу (ABBYY compreno).
про мегапроект ABBYY compreno я когда-то очень давно случайно увидел статью и будучи студентом физиком, конечно, был очарован масштабом. это же такая мечта технаря в вакууме: давайте мы все тексты сведем к логическим инвариантам, соединим их стрелочками и построим граф всего языка. то есть к сущностям типа собака / стол / книга, которые не теряют своей сути при переезде между странами. тогда для перевода между языками можно будет делать преобразование в этот мета-язык и из него в еще один шаг переводить тексты в любой другой. впечатлился, посмотрел на страшные диаграммы простых предложений (скину их в комменты, зацените) и забыл об этом на долгие годы. но конечно и представить не мог, сколько копий было поломано и сколько ресурсов потрачено (получается, что впустую).
а самое забавное, что современные большие языковые модели примерно так и работают — все тексты переводят в свой мета-язык и обратно, только этот язык
1) математический (операции над текстом превращаются в операции над векторами в многомерных пространствах, писал об этом)
2) не интерпретируемый, то есть не сводимый к человеческим интуициями
рекомендую вспоминать об этом каждый раз, когда вы слышите тезис "оно не мыслит как человек, следовательно оно глупое". про подсчет букв в предложениях, математические навыки ЛЛМ или заковыристые логические задачки. самолеты тоже не летают как птицы, и ничего.
очень рекомендую прочитать целиком: https://sysblok.ru/blog/gorkij-urok-abbyy-kak-lingvisty-proigrali-poslednjuju-bitvu-za-nlp/
#science #language #AI #history
по ссылке обзор развития компьютерной лингвистики от ранних моделей до трансформеров, которые появились как способ улучшить качество гугл-переводчика, расцвет ABBYY как одной из самых успешных российских ИТ-компаний, почти академическая культура физтехов внутри, «горький урок» больших данных и сгоревшие сотни миллионов долларов на амбициозную попытку построить дерево онтологий всех языков сразу (ABBYY compreno).
про мегапроект ABBYY compreno я когда-то очень давно случайно увидел статью и будучи студентом физиком, конечно, был очарован масштабом. это же такая мечта технаря в вакууме: давайте мы все тексты сведем к логическим инвариантам, соединим их стрелочками и построим граф всего языка. то есть к сущностям типа собака / стол / книга, которые не теряют своей сути при переезде между странами. тогда для перевода между языками можно будет делать преобразование в этот мета-язык и из него в еще один шаг переводить тексты в любой другой. впечатлился, посмотрел на страшные диаграммы простых предложений (скину их в комменты, зацените) и забыл об этом на долгие годы. но конечно и представить не мог, сколько копий было поломано и сколько ресурсов потрачено (получается, что впустую).
а самое забавное, что современные большие языковые модели примерно так и работают — все тексты переводят в свой мета-язык и обратно, только этот язык
1) математический (операции над текстом превращаются в операции над векторами в многомерных пространствах, писал об этом)
2) не интерпретируемый, то есть не сводимый к человеческим интуициями
рекомендую вспоминать об этом каждый раз, когда вы слышите тезис "оно не мыслит как человек, следовательно оно глупое". про подсчет букв в предложениях, математические навыки ЛЛМ или заковыристые логические задачки. самолеты тоже не летают как птицы, и ничего.
очень рекомендую прочитать целиком: https://sysblok.ru/blog/gorkij-urok-abbyy-kak-lingvisty-proigrali-poslednjuju-bitvu-za-nlp/
#science #language #AI #history
Системный Блокъ
Горький урок ABBYY: как лингвисты проиграли последнюю битву за NLP - Системный Блокъ
Недавно СМИ облетела новость об увольнении всех российских программистов из компании ABBYY (тоже в прошлом российской, а теперь уже совсем нет). Теперь, когда страсти вокруг обсуждения дискриминации сотрудников по паспорту улеглись, хочется поговорить о более…
пивные технологии
после перерыва, да еще и в субботу возвращаюсь с козырей. я всегда удивлялся, как многим мы обязаны пивоварению (помимо собственно пива, а это уже очень много). развитие технологий в этой области подарило нам холодильные установки, точные термометры, пастеризацию и даже статистический анализ, а в лабораториях при пивоварнях в разное время работали такие умы, как Джеймс Джоуль ( в честь которого названа единица измерения энергии) и Луи Пастер (ну, пастер-изация)
🧊 и хотя пиво на Земле варят больше 7 тысяч (!!) лет, большая часть этой истории касается элям, которые производятся верховым брожением при высокой температуре. эль это то что пили в древнем егопте, чаще всего в средневековой европе, а сейчас к к элям относятся относятся все портеры, стауты, IPA и биттеры. помимо эля, есть лагеры, которые готоввятся низовым брожением, которое требует температура не выше 15С. по этой причине в средние века лагер можно было приготовить только зимой (и еще какое-то время, пока запасенная в подвале льдина не растаяла). но желание пить пиво без перерывов круглый год создало огромный спрос на технологии охлаждения, что в конце 19 века привело к тому что Карл фон Линде изобрел первый промышленный холодильник в 1876 г., а первым его клиентом стала немецкая пивоварня Spaten. после того как решили вопросы лагера, холодильники пригодились и для еды тоже.
🦠 французские пивовары сталкивались со скисанием пива при хранение и в 1860-х позвали на помощь Луи Пастера. исследуя образцы в микроскопе он обнаружил, что порча происходит из-за микро-организмов. было ясно, что кипячение напитка решает проблему, но оно также портило вкус. дальнейшие исследования показали, что бактерии перестают двигаться если пиво нагреть до 60С даже на короткое время. это открытие позволило сохранить пиво и вином и только спустя десятилетия начало использоваться с молочными продуктами. Пастер опубликовал целую книгу "Études sur la Bière" ("Исследования пива")
📊 разное качества ячменя на входе приводило к сильным изменениям в качестве получаемого пива. фабрика Гинесс в те времена был одной из самых больших в мире, и страдала от этого сильнее других. при этом процессы по-прежнему были ручными и отлаживались на глаз и вкус. химик Уильям Госсет устроился на пивоварню в 1908 году и получил задачу оптимизировать этот процесс, для этого ему пришлось делать очень много лабораторных измерений качества ячменя из разных поставок. а будучи человеком умным и, вероятно, ленивым он задался вопросом — сколько нужно делать измерений, чтобы достоверно понять что одна партия ячменя лучше чем другая? поскольку статистика как область тогда только зарождалась, чтобы на него ответить пришлось создать свою теорию. Госсет разработал тест, который до сих пор используется, чтобы показать "статистическую значимость результатов" на маленьких выборках или когда стандартное отклонение выборки неизвестно (то есть почти всегда).
называется он "тест Стьюдента", но почему? Гинесс запрещал сотрудникам публиковать статьи, чтобы не раскрывать детали перед конкурентами. Госсет понял значимость своих находок не только для пивоварения, но и для всей статистики, но чтобы скрыться от работодателей, был вынужден опубликовать свою величайшую статью "The Probable Error of a Mean" под псевдонимом Student. а мог бы сохранить свое имя в истории с тестом Госсета.
на фото весенняя заготовка льдин на Москва-реке около 1899г
#science #history
после перерыва, да еще и в субботу возвращаюсь с козырей. я всегда удивлялся, как многим мы обязаны пивоварению (помимо собственно пива, а это уже очень много). развитие технологий в этой области подарило нам холодильные установки, точные термометры, пастеризацию и даже статистический анализ, а в лабораториях при пивоварнях в разное время работали такие умы, как Джеймс Джоуль ( в честь которого названа единица измерения энергии) и Луи Пастер (ну, пастер-изация)
🧊 и хотя пиво на Земле варят больше 7 тысяч (!!) лет, большая часть этой истории касается элям, которые производятся верховым брожением при высокой температуре. эль это то что пили в древнем егопте, чаще всего в средневековой европе, а сейчас к к элям относятся относятся все портеры, стауты, IPA и биттеры. помимо эля, есть лагеры, которые готоввятся низовым брожением, которое требует температура не выше 15С. по этой причине в средние века лагер можно было приготовить только зимой (и еще какое-то время, пока запасенная в подвале льдина не растаяла). но желание пить пиво без перерывов круглый год создало огромный спрос на технологии охлаждения, что в конце 19 века привело к тому что Карл фон Линде изобрел первый промышленный холодильник в 1876 г., а первым его клиентом стала немецкая пивоварня Spaten. после того как решили вопросы лагера, холодильники пригодились и для еды тоже.
🦠 французские пивовары сталкивались со скисанием пива при хранение и в 1860-х позвали на помощь Луи Пастера. исследуя образцы в микроскопе он обнаружил, что порча происходит из-за микро-организмов. было ясно, что кипячение напитка решает проблему, но оно также портило вкус. дальнейшие исследования показали, что бактерии перестают двигаться если пиво нагреть до 60С даже на короткое время. это открытие позволило сохранить пиво и вином и только спустя десятилетия начало использоваться с молочными продуктами. Пастер опубликовал целую книгу "Études sur la Bière" ("Исследования пива")
📊 разное качества ячменя на входе приводило к сильным изменениям в качестве получаемого пива. фабрика Гинесс в те времена был одной из самых больших в мире, и страдала от этого сильнее других. при этом процессы по-прежнему были ручными и отлаживались на глаз и вкус. химик Уильям Госсет устроился на пивоварню в 1908 году и получил задачу оптимизировать этот процесс, для этого ему пришлось делать очень много лабораторных измерений качества ячменя из разных поставок. а будучи человеком умным и, вероятно, ленивым он задался вопросом — сколько нужно делать измерений, чтобы достоверно понять что одна партия ячменя лучше чем другая? поскольку статистика как область тогда только зарождалась, чтобы на него ответить пришлось создать свою теорию. Госсет разработал тест, который до сих пор используется, чтобы показать "статистическую значимость результатов" на маленьких выборках или когда стандартное отклонение выборки неизвестно (то есть почти всегда).
называется он "тест Стьюдента", но почему? Гинесс запрещал сотрудникам публиковать статьи, чтобы не раскрывать детали перед конкурентами. Госсет понял значимость своих находок не только для пивоварения, но и для всей статистики, но чтобы скрыться от работодателей, был вынужден опубликовать свою величайшую статью "The Probable Error of a Mean" под псевдонимом Student. а мог бы сохранить свое имя в истории с тестом Госсета.
на фото весенняя заготовка льдин на Москва-реке около 1899г
#science #history
Последний год я занимаюсь ИИ-автоматизациями для бизнеса и, конечно, в своей жизни тоже кое-что оптимизировал. Хочу рассказать про 2 телеграм -бота с нейронками под капотом, которыми пользуюсь регулярно
1) good secretary bot —
@goodsecretarybot
просто превращает войсы в текст. Бесплатно, без смс и регистрации и даже без сохранения логов (верим на слово). Сделал ведущий хорошего подкаста «запуск завтра» @ctodaily Самат Галимов, все респекты ему.
- ему я отправляю ваши голосовые когда неудобно послушать (часто)
- наговариваю свои заметки прямо с ним в переписке и забираю тексты в notion или сюда в канал
- бот может транскрибировать ваши аудиозаписи с телефона если вы отправите их через кнопку share to, но есть лимит по времени, кажется, в 10 минут
работает на опен-сорс voice2text модели whisper от openAI которую вам не нужно хостить самим
2) Dola AI — @hidolabot
ассистент для работы с календарем. Настраиваете интеграцию с гуглом или отправляете ему текстовое описание события, а Dola извлекает все детали и добавляет его в ваше расписание. Кто сделал не знаю, а услышал про бот впервые от Кости Филоненко, спасибо.
- бот принимает на вход текстовые сообщения, картинки и даже войсы
- вершина наших отношения пройдена на днях — я изучал лайн-ап музыкального фестиваля на который еду ставя галочки на картинке с расписанием. Потом скинул эту картинку с заметками в бот и получил ленту событий в календаре с правильными датой, временем и локацией. Скриншот в коментах
- еще удобно скидывать ему рекламные описания мероприятий с маркетинговой шелухой, которую он сам заботливо очистит
- бот понимает инструкции на естественном языке типа «в этом списке возьми только последние 2 строчки», «здесь ты был не прав, удали» или просто «завтра идем пить кофе с Х»
- пока тоже бесплатно, но за такое платить не жалко, ждем от ребят новых фичей
работает как structured output + function call с моделью gpt-4o, но UX внутри телеграма очень приятный, удобнее я сам не сделал бы
3) не бот, но удобная фича в связке с любым ботом — заводить приватные тематические телеграм-каналы, куда это все можно пересылать. Каналы я называю с тегом priv / <you name it>, чтобы не путаться
- у меня есть отдельный, куда я записываю войсы со своими снами
- штук 5 для тематических репостов (стартапы, ИИ, политика)
- кстати этот канал тоже когда-то был приватным
- про-тип — для этих приватных каналов можно настроить интеграцию с тем же notion и даже сделать чат-бот, который будут все эти посты помнить за вас, но это отдельный разговор
а вы какие боты и фичи телеграма используете?
#AI #tools @levels_of_abstraction
1) good secretary bot —
@goodsecretarybot
просто превращает войсы в текст. Бесплатно, без смс и регистрации и даже без сохранения логов (верим на слово). Сделал ведущий хорошего подкаста «запуск завтра» @ctodaily Самат Галимов, все респекты ему.
- ему я отправляю ваши голосовые когда неудобно послушать (часто)
- наговариваю свои заметки прямо с ним в переписке и забираю тексты в notion или сюда в канал
- бот может транскрибировать ваши аудиозаписи с телефона если вы отправите их через кнопку share to, но есть лимит по времени, кажется, в 10 минут
работает на опен-сорс voice2text модели whisper от openAI которую вам не нужно хостить самим
2) Dola AI — @hidolabot
ассистент для работы с календарем. Настраиваете интеграцию с гуглом или отправляете ему текстовое описание события, а Dola извлекает все детали и добавляет его в ваше расписание. Кто сделал не знаю, а услышал про бот впервые от Кости Филоненко, спасибо.
- бот принимает на вход текстовые сообщения, картинки и даже войсы
- вершина наших отношения пройдена на днях — я изучал лайн-ап музыкального фестиваля на который еду ставя галочки на картинке с расписанием. Потом скинул эту картинку с заметками в бот и получил ленту событий в календаре с правильными датой, временем и локацией. Скриншот в коментах
- еще удобно скидывать ему рекламные описания мероприятий с маркетинговой шелухой, которую он сам заботливо очистит
- бот понимает инструкции на естественном языке типа «в этом списке возьми только последние 2 строчки», «здесь ты был не прав, удали» или просто «завтра идем пить кофе с Х»
- пока тоже бесплатно, но за такое платить не жалко, ждем от ребят новых фичей
работает как structured output + function call с моделью gpt-4o, но UX внутри телеграма очень приятный, удобнее я сам не сделал бы
3) не бот, но удобная фича в связке с любым ботом — заводить приватные тематические телеграм-каналы, куда это все можно пересылать. Каналы я называю с тегом priv / <you name it>, чтобы не путаться
- у меня есть отдельный, куда я записываю войсы со своими снами
- штук 5 для тематических репостов (стартапы, ИИ, политика)
- кстати этот канал тоже когда-то был приватным
- про-тип — для этих приватных каналов можно настроить интеграцию с тем же notion и даже сделать чат-бот, который будут все эти посты помнить за вас, но это отдельный разговор
а вы какие боты и фичи телеграма используете?
#AI #tools @levels_of_abstraction
Внимание!
Оказалось, что подброшенная монета с вероятностью 51% приземляется на ту же сторону, с которой ее подбрасывают 🤯
Сначала это показало компьютерное моделирование, а сейчас появилось и экспериментальное подтверждение на 350 тысяч бросков.
Спасибо за внимание
Оказалось, что подброшенная монета с вероятностью 51% приземляется на ту же сторону, с которой ее подбрасывают 🤯
Сначала это показало компьютерное моделирование, а сейчас появилось и экспериментальное подтверждение на 350 тысяч бросков.
Спасибо за внимание
у меня есть традиция устраивать конференцию в честь своего дня рождения
доклады со слайдами — мой родной язык, выученный сначала на научных семинарах и конференциях, а позже на стартап—питчах. а еще мне повезло иметь много умных друзей, которые успели этот язык выучить в самых разных областях знания и всегда имеют, о чем рассказать. ну и в-третьих, формат конференции — это очень весело, особенно если не сдерживать его строгими правилами академического мира, которым я лично все меньше связан. так что во-первых, призываю вас организовывать больше разных конференций, по поводу и без.
во-вторых, поскольку день рождения у меня как раз сегодня, дарю вам свой прошлогодний доклад — "уроки динозавров. учимся на чужих ошибках" о массовых вымираниях на планете Земля и уроках, которые мы можем извлечь из бытия тех кого с нами нет (динозавры, мамонты и еще 95% когда-либо существовавших видов), и выигрышных cтратегий видов успешно переживших массовые вымирания (акулы, тараканы, медузы).
жизнь динозавров интересует меня с детства — а) они красивые, б) очень разные и в) они много тысяч лет правили на планете. пока быстро и практически бесследно исчезли, уступив гегемонию другим видам, в том числе млекопитающим. за что, конечно, большое спасибо
выводы доклада кратко:
- если солнце светило ярко 50 млн лет, это не значит, что так будет всегда
- высокая скорость размножения помогает в адаптации к меняющимся условиям
- при резкой смене внешних условий менять ареал обитания — хорошая стратегия
- живи долго. иногда неприятности заканчиваются
- и мой любимый, всегда справедливый: эволюционируй или умри. точнее, вымри
подробнее в самой презентации. в комментариях делитесь, чей еще доклад вы хотели бы увидеть здесь. а если хотите присоединиться в качестве докладчиков к будущим выпускам — вэлком в личку
доклады со слайдами — мой родной язык, выученный сначала на научных семинарах и конференциях, а позже на стартап—питчах. а еще мне повезло иметь много умных друзей, которые успели этот язык выучить в самых разных областях знания и всегда имеют, о чем рассказать. ну и в-третьих, формат конференции — это очень весело, особенно если не сдерживать его строгими правилами академического мира, которым я лично все меньше связан. так что во-первых, призываю вас организовывать больше разных конференций, по поводу и без.
во-вторых, поскольку день рождения у меня как раз сегодня, дарю вам свой прошлогодний доклад — "уроки динозавров. учимся на чужих ошибках" о массовых вымираниях на планете Земля и уроках, которые мы можем извлечь из бытия тех кого с нами нет (динозавры, мамонты и еще 95% когда-либо существовавших видов), и выигрышных cтратегий видов успешно переживших массовые вымирания (акулы, тараканы, медузы).
жизнь динозавров интересует меня с детства — а) они красивые, б) очень разные и в) они много тысяч лет правили на планете. пока быстро и практически бесследно исчезли, уступив гегемонию другим видам, в том числе млекопитающим. за что, конечно, большое спасибо
выводы доклада кратко:
- если солнце светило ярко 50 млн лет, это не значит, что так будет всегда
- высокая скорость размножения помогает в адаптации к меняющимся условиям
- при резкой смене внешних условий менять ареал обитания — хорошая стратегия
- живи долго. иногда неприятности заканчиваются
- и мой любимый, всегда справедливый: эволюционируй или умри. точнее, вымри
подробнее в самой презентации. в комментариях делитесь, чей еще доклад вы хотели бы увидеть здесь. а если хотите присоединиться в качестве докладчиков к будущим выпускам — вэлком в личку
конференция 2024 успешно состоялась
про традицию я рассказывал выше. а про тему этого года не рассказывал. поскольку большая часть моих близких людей разбросаны по всему миру, в этом году мы коллективно исследовали "близость" в широком смысле — сообщества, дружбу, расстояния и границы, отсутствие близости и ее невозможность.
может быть когда-нибудь доклады доберутся до ютуба, может быть возникнет открытая версия мероприятия, а пока афиша на память. спасибо всем участникам и сочувствующим
p.s. приколы нужно организовывать так же серьезно как все остальное
про традицию я рассказывал выше. а про тему этого года не рассказывал. поскольку большая часть моих близких людей разбросаны по всему миру, в этом году мы коллективно исследовали "близость" в широком смысле — сообщества, дружбу, расстояния и границы, отсутствие близости и ее невозможность.
может быть когда-нибудь доклады доберутся до ютуба, может быть возникнет открытая версия мероприятия, а пока афиша на память. спасибо всем участникам и сочувствующим
p.s. приколы нужно организовывать так же серьезно как все остальное
и чтобы плавно вернуть канал к беспросветному занудству, поделюсь историей, которую мой друг Эколёха рассказал во время своего прекрасного доклада о близости к земле
многим знаком приятный запах земли после дождя. у него даже есть свое название — петрикор, этот запах такой приятный, что парфюмеры очень давно и активно используют его в разных ароматах
название то дали, но откуда этот запах берется было непонятно, пока другие ученые не выяснили, что основную ноту создает геосмин, причем выделяет его не сама земля или растения, а живущие в земле бактерии стрептомицеты, которые после дождя начинают очень активно размножаться. иногда к этому букету примешиваются растворенные дождем эфирные масла и озон после грозы, но основную ноту дают именно бактерии.
но самое интересное — то, почему этот запах кажется нам приятным. есть мнение, что поскольку мокрая земля приводила к лучшим урожаям, и с меньшей вероятностью означала голодную зиму, многие поколения наших предков—земледельцев после дождя вырабатывали условный рефлекс, почти как собака Павлова. проверить это вряд ли когда-то удастся, но объяснение красивое.
на этом возвращаюсь к своему долгострою про обоняние и тому, как разные запахи, активировавшие нервные клетки у нас в носу декодируются в нашем мозге и создают ощущения, приятные и не очень. до конца декабря обещаю закончить
многим знаком приятный запах земли после дождя. у него даже есть свое название — петрикор, этот запах такой приятный, что парфюмеры очень давно и активно используют его в разных ароматах
название то дали, но откуда этот запах берется было непонятно, пока другие ученые не выяснили, что основную ноту создает геосмин, причем выделяет его не сама земля или растения, а живущие в земле бактерии стрептомицеты, которые после дождя начинают очень активно размножаться. иногда к этому букету примешиваются растворенные дождем эфирные масла и озон после грозы, но основную ноту дают именно бактерии.
но самое интересное — то, почему этот запах кажется нам приятным. есть мнение, что поскольку мокрая земля приводила к лучшим урожаям, и с меньшей вероятностью означала голодную зиму, многие поколения наших предков—земледельцев после дождя вырабатывали условный рефлекс, почти как собака Павлова. проверить это вряд ли когда-то удастся, но объяснение красивое.
на этом возвращаюсь к своему долгострою про обоняние и тому, как разные запахи, активировавшие нервные клетки у нас в носу декодируются в нашем мозге и создают ощущения, приятные и не очень. до конца декабря обещаю закончить
Откуда я это почувствовал. Запахи, часть 4
В прошлых серия мы разобрались, как в носу происходит «оцифровка» химической информации из воздуха в электро-химические сигналы между нейронами. Сегодня о том как эта информация обрабатывается разными отделами мозга и влияет на наше поведение, связывая запахи с эмоциями, местами и воспоминаниями.
Обонятельная луковица передает информацию в высшие отделы мозга – миндалевидное тело, гиппокамп, таламус, обонятельную и орбитофронтальную кору. Множество соединений этих отделов между собой, напрямую и с длинными цепочками через другие отделы, путает следы для исследователей, но тем не менее некоторые вещи уже неплохо изучены.
🐀 Значительная часть описанного ниже известна благодаря лабораторным крысам: так, удаление обонятельного нерва приводило к заметным изменениям структуры гиппокампа и миндалевидного тела, после чего мыши впадали в депрессию, что изначально и подтвердило связь запахов и эмоций через эти отделы. Более того, этот способ создания депрессивных крыс оказался таким надежным, что именно так готовят особей для испытаний эффективности антидепрессантов.
Исследовать людей на порядки сложнее — человеческие данные как правило получены с помощью экспериментов в МРТ-аппаратах, когда испытуемым давали пробовать разные ароматы и следили за реакцией в разных отделах мозга. Обзор на тему
Кстати, связь размера обонятельной луковицы с депрессией подтвердилась и для людей — чем она меньше, тем выше шансы депрессивного расстройство, что даже предлагается использовать как способ диагностики (статья)
Так что же происходит в разных частях мозга с обонятельными сигналами, вызванными, например, все той же чашкой кофе
🧠 Первичная обонятельная кора, расположенная в височной доле мозга прямо над ноздрями, играет ключевую роль в восприятии и первичной обработке информации о запахах. Эта одна из наиболее древних частей мозга, что означает ее связь с самыми низовыми функциями выживания. Она функционирует как узел, фильтрующий и сортирующий информацию об запахах перед ее передачей в другие части мозга, например
🌰 миндалевидное тело — наш центр эмоций. здесь происходит ассоциативное обучение через подкрепление — запахи, которые мы ощущаем вместе с приятными эмоциями маркируются как «приятные» и наоборот. далее после нескольких циклов обучения, а люди очень эффективны в своем reinforcement learning, запахи начинают вызывать эмоции сами по себе. Если у вас есть привычка пить кофе по утрам, миндалевидное тело воспроизводит эмоциональную реакцию прошлых опытов, как только вы услышите первый аромат с кухни. Так, благодаря ему вы можете испытывать чувство бодрости или комфорта, в зависимости от того, как вы обычно воспринимаете кофе
🦛 Гиппокамп в целом отвечает за работу с эпизодической памятью, а в случае с запахами связывает их с конкретными событиями или местами. например, здесь кодируется, запах бабушкиного шкафа из вашего детства, или какого-то цветущего поля рядом с дачей. В следующий раз, когда запах цветочной отдушки напомнит вам это поле или любую другую точку на земле, поблагодарите за это гиппокамп. С кофе это может проявляться в связи сорта с воспоминания об определенной кофейне
☺️ Таламус, который играет важную роль в сенсорном восприятии и регуляции двигательных функций, помогает нам в относительно простых вещах, например, определять источник запаха дойти до кухни и потянуться за чашкой
До этого момента все реакции происходят неосознанно, управлять ими даже самые сознательные субъекты не в силах. При этом они могут управлять нами — физиологические состояния, например, голод, влияют на ощущаемое удовольствия от запахов еды как раз через обучение с подкреплением в гиппокампе. То есть в некоторых ситуациях гиппокамп играет с перцепцией обоняния и подкручивает яркость запахов, чтобы вы уже не могли их игнорировать и наконец что-нибудь съели.
🧠 Дальше информация передается в орбифронтальную кору - самую «новую» часть нашего hardware из перечисленных выше, которая отвечает за самые новые функции — образное мышление, целеполагание, работа с ожиданиями.
В прошлых серия мы разобрались, как в носу происходит «оцифровка» химической информации из воздуха в электро-химические сигналы между нейронами. Сегодня о том как эта информация обрабатывается разными отделами мозга и влияет на наше поведение, связывая запахи с эмоциями, местами и воспоминаниями.
Обонятельная луковица передает информацию в высшие отделы мозга – миндалевидное тело, гиппокамп, таламус, обонятельную и орбитофронтальную кору. Множество соединений этих отделов между собой, напрямую и с длинными цепочками через другие отделы, путает следы для исследователей, но тем не менее некоторые вещи уже неплохо изучены.
Исследовать людей на порядки сложнее — человеческие данные как правило получены с помощью экспериментов в МРТ-аппаратах, когда испытуемым давали пробовать разные ароматы и следили за реакцией в разных отделах мозга. Обзор на тему
Кстати, связь размера обонятельной луковицы с депрессией подтвердилась и для людей — чем она меньше, тем выше шансы депрессивного расстройство, что даже предлагается использовать как способ диагностики (статья)
Так что же происходит в разных частях мозга с обонятельными сигналами, вызванными, например, все той же чашкой кофе
🧠 Первичная обонятельная кора, расположенная в височной доле мозга прямо над ноздрями, играет ключевую роль в восприятии и первичной обработке информации о запахах. Эта одна из наиболее древних частей мозга, что означает ее связь с самыми низовыми функциями выживания. Она функционирует как узел, фильтрующий и сортирующий информацию об запахах перед ее передачей в другие части мозга, например
🌰 миндалевидное тело — наш центр эмоций. здесь происходит ассоциативное обучение через подкрепление — запахи, которые мы ощущаем вместе с приятными эмоциями маркируются как «приятные» и наоборот. далее после нескольких циклов обучения, а люди очень эффективны в своем reinforcement learning, запахи начинают вызывать эмоции сами по себе. Если у вас есть привычка пить кофе по утрам, миндалевидное тело воспроизводит эмоциональную реакцию прошлых опытов, как только вы услышите первый аромат с кухни. Так, благодаря ему вы можете испытывать чувство бодрости или комфорта, в зависимости от того, как вы обычно воспринимаете кофе
🦛 Гиппокамп в целом отвечает за работу с эпизодической памятью, а в случае с запахами связывает их с конкретными событиями или местами. например, здесь кодируется, запах бабушкиного шкафа из вашего детства, или какого-то цветущего поля рядом с дачей. В следующий раз, когда запах цветочной отдушки напомнит вам это поле или любую другую точку на земле, поблагодарите за это гиппокамп. С кофе это может проявляться в связи сорта с воспоминания об определенной кофейне
До этого момента все реакции происходят неосознанно, управлять ими даже самые сознательные субъекты не в силах. При этом они могут управлять нами — физиологические состояния, например, голод, влияют на ощущаемое удовольствия от запахов еды как раз через обучение с подкреплением в гиппокампе. То есть в некоторых ситуациях гиппокамп играет с перцепцией обоняния и подкручивает яркость запахов, чтобы вы уже не могли их игнорировать и наконец что-нибудь съели.
🧠 Дальше информация передается в орбифронтальную кору - самую «новую» часть нашего hardware из перечисленных выше, которая отвечает за самые новые функции — образное мышление, целеполагание, работа с ожиданиями.
Please open Telegram to view this post
VIEW IN TELEGRAM
Функции без которых животные могут обойтись. На уровнях абстракции это переход от запаха еды, от которого вы сильнее хотите есть, к запаху одеколона вашего отца от которого сильнее хочется плакать. Эти сложные образы закодированы где-то здесь, и достать их оттуда может уже не только случайный аромат, но и сознательное усилие.
С точки зрения работы с ожиданиями орбитофронтальная кора помогает вам распознать запах и предвкушать удовольствие от употребления горячей чашки кофе до того как вы ее выпьете. То есть если как следует напрячься, можно достать из нее вкусовые и обонятельные образы, которые сами по себе окажутся бодрящими.
Сложно остановить копание в этом процессе, поэтому взгляд на обоняние в терминах математической обработки сигналов выйдет отдельным постом
#обоняние #air
@levels_of_abstraction
С точки зрения работы с ожиданиями орбитофронтальная кора помогает вам распознать запах и предвкушать удовольствие от употребления горячей чашки кофе до того как вы ее выпьете. То есть если как следует напрячься, можно достать из нее вкусовые и обонятельные образы, которые сами по себе окажутся бодрящими.
Сложно остановить копание в этом процессе, поэтому взгляд на обоняние в терминах математической обработки сигналов выйдет отдельным постом
#обоняние #air
@levels_of_abstraction
Forwarded from Daily Reminder
Please open Telegram to view this post
VIEW IN TELEGRAM
итоги года для Quist
TLDR:мы не умерли, но мы уже не те, что раньше — в новом составе занимаемся новыми штуками
напомню, что началось все ~1.5 года назад с идеи супер-поиска информации в научных статьях на ЛЛМ. я тогда только только вывалился из академии, чатГПТ начинал шествие за умы и кошельки, про perplexity никто включая меня не знал, и было решено пилить стартап для рисерчеров, чтобы сделать процесс поиска данных более эффективным
я решал свою собственную боль и, вероятно, был слишком очарован юз-кейсом, когда ЛЛМ читают за вас сумасшедшие объемы информации и находят все иголки в тысяче стогов сена. к тому же рисерчеры, кому я показывал первые прототипы, были в восторге — мы сделали 5 бесплатных пилотов, но дальше поняли, что с учеными и небольшими коллективами экономика не сходится — данных у них много, а вот денег не очень (коллеги, ничего личного) и что самое важное — они редко куда-то спешат в своем поиске. после этого мы начали искать новые юз-кейсы
точнее сходится экономика только для больших заказчиков, например целых университетов и здесь давно намечается интересный проект, но мы уже год согласовываем ТЗ со всеми decision makers, и в какой-то момент казалось, что до подписания не доживем
с тех пор мы:
— запустили апп с урезанным функционалом для b2c, собрали первую 1000 пользователей
— сделали тул для консультантов чтобы собирать информацию по рынкам и конкурентам
— тул для инвесторов в технологические проекты, чтобы оценить перспективность той или иной технологии
— тул для сбора информации по клиническим испытаниям новых лекарств FDA
— автоматизацию поиска тендеров для большого маркетплейса. удивительным образом задача оказалось технологически близко к нашему основному юз-кейсу, в итоге сложился крутой проект который сейчас ближе всего к промышленной интеграции, весной раскатываем наш ко-пайлот на целый отдел продаж
— и вот под самый конец года запартнерились с бодрым стартапом который занимается поиском новых лекарств с помощью ИИ, причем с задачей очень похожей на то, с чего мы начинали — поиск данных в статьях. по сути это составление с помощью нашего ИИ датасетов для их ИИ, весело
— а прямо сейчас копаем в сторону работы с патентами. технологически опять таки близкая, но по бизнесу все намного интереснее. рынок американских патентных поверенных, которые чарджат поминутно (!) доводя цену защиты каждого изобретения до ~$10к надо дизраптить безжалостно
в общем много чему научились и много всего сделали, поэтому главный итог года — бесценный опыт 🥲 а product market fit продолжаем искать
в новом году желаю и себе, и вам чаще фокусировать силы в одной точке. где фокус, там и растет
#startup
TLDR:
напомню, что началось все ~1.5 года назад с идеи супер-поиска информации в научных статьях на ЛЛМ. я тогда только только вывалился из академии, чатГПТ начинал шествие за умы и кошельки, про perplexity никто включая меня не знал, и было решено пилить стартап для рисерчеров, чтобы сделать процесс поиска данных более эффективным
я решал свою собственную боль и, вероятно, был слишком очарован юз-кейсом, когда ЛЛМ читают за вас сумасшедшие объемы информации и находят все иголки в тысяче стогов сена. к тому же рисерчеры, кому я показывал первые прототипы, были в восторге — мы сделали 5 бесплатных пилотов, но дальше поняли, что с учеными и небольшими коллективами экономика не сходится — данных у них много, а вот денег не очень (коллеги, ничего личного) и что самое важное — они редко куда-то спешат в своем поиске. после этого мы начали искать новые юз-кейсы
точнее сходится экономика только для больших заказчиков, например целых университетов и здесь давно намечается интересный проект, но мы уже год согласовываем ТЗ со всеми decision makers, и в какой-то момент казалось, что до подписания не доживем
с тех пор мы:
— запустили апп с урезанным функционалом для b2c, собрали первую 1000 пользователей
— сделали тул для консультантов чтобы собирать информацию по рынкам и конкурентам
— тул для инвесторов в технологические проекты, чтобы оценить перспективность той или иной технологии
— тул для сбора информации по клиническим испытаниям новых лекарств FDA
— автоматизацию поиска тендеров для большого маркетплейса. удивительным образом задача оказалось технологически близко к нашему основному юз-кейсу, в итоге сложился крутой проект который сейчас ближе всего к промышленной интеграции, весной раскатываем наш ко-пайлот на целый отдел продаж
— и вот под самый конец года запартнерились с бодрым стартапом который занимается поиском новых лекарств с помощью ИИ, причем с задачей очень похожей на то, с чего мы начинали — поиск данных в статьях. по сути это составление с помощью нашего ИИ датасетов для их ИИ, весело
— а прямо сейчас копаем в сторону работы с патентами. технологически опять таки близкая, но по бизнесу все намного интереснее. рынок американских патентных поверенных, которые чарджат поминутно (!) доводя цену защиты каждого изобретения до ~$10к надо дизраптить безжалостно
в общем много чему научились и много всего сделали, поэтому главный итог года — бесценный опыт 🥲 а product market fit продолжаем искать
в новом году желаю и себе, и вам чаще фокусировать силы в одной точке. где фокус, там и растет
#startup